Hari 1:
Pengenalan kepada Big Data dan tantangan yang dihadapi.
Konsep dasar Hadoop dan sejarahnya.
Mengenal ekosistem Hadoop, termasuk HDFS dan MapReduce.
Instalasi dan konfigurasi Hadoop pada cluster sederhana.
Praktek: Menginstal Hadoop dan menjalankan tugas sederhana.
Hari 2:
Pemahaman tentang Hadoop Distributed File System (HDFS).
Mengelola file dan direktori dalam HDFS.
Penyimpanan dan replikasi data dalam HDFS.
Melakukan transfer data antara sistem lokal dan HDFS.
Praktek: Mengelola data dalam HDFS.
Hari 3:
Pengenalan kepada paradigma pemrograman MapReduce.
Menulis dan menjalankan tugas MapReduce sederhana.
Proses pengolahan data dalam Hadoop.
Menggunakan komponen Hadoop untuk pengolahan data terdistribusi.
Praktek: Menerapkan tugas MapReduce untuk analisis data.
Hari 4:
Memahami komponen utama ekosistem Hadoop, seperti Hive, Pig, dan HBase.
Menerapkan Hive untuk analisis data dengan bahasa SQL-nya.
Pengenalan Pig sebagai alat pengolahan data.
Pengenalan HBase sebagai penyimpanan NoSQL.
Praktek: Menggunakan ekosistem Hadoop dalam skenario nyata.
Hari 5:
Mengembangkan proyek akhir yang melibatkan penggunaan Hadoop untuk pemrosesan data besar.
Merancang, mengimplementasikan, dan menguji proyek.
Pengujian, debugging, dan perbaikan proyek.
Presentasi proyek akhir.
Penyelesaian kursus dan sertifikat.